CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词 算法

搜索资源列表

  1. 2006111

    1下载:
  2. 支持英文、数字、中文(简体)混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。-support English, figures, Chinese (simplified) mixed at the number of commonly used words and the names of more than 220,000 matching word thesaurus finishing achieve the greatest po
  3. 所属分类:图形/文字识别

    • 发布日期:2008-10-13
    • 文件大小:37291
    • 提供者:王成平
  1. dedesplit

    0下载:
  2. 中文切词,非常优秀特此推荐。是目前分词效率较高的算法-Chinese segmentation, hereby commend outstanding. Segmentation is more efficient algorithm
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:677929
    • 提供者:wu guangyin
  1. ProbWordSeg

    0下载:
  2. 中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:87434
    • 提供者:robert
  1. ProbWordSeg

    0下载:
  2. 最大概率分词法.中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂
  3. 所属分类:界面编程

    • 发布日期:2008-10-13
    • 文件大小:3505353
    • 提供者:李雅芳
  1. EasyXSpider

    2下载:
  2. EasyXSpider不仅仅是一个简单的Linux下的爬虫程序。更包括了,索引制作,检索,分词(英文及中文二元法切词),以及Google PageRank算法和CGI查询界面的实现。可以看做是一个完整的小型搜索引擎。
  3. 所属分类:搜索引擎

    • 发布日期:2009-06-12
    • 文件大小:4149505
    • 提供者:shootsoft
  1. 77433632mmseg-v0.1

    0下载:
  2. 使用最大正向匹配算法,实现中文自动分词,对于初学者有很高的参考价值。-The biggest being the use of matching algorithm, the realization of Chinese word segmentation, for beginners, has high reference value.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-08
    • 文件大小:607478
    • 提供者:jicheng
  1. theshortest

    1下载:
  2. 最短路径法分词程序.将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的-The shortest path segmentation process. After the Chinese sentence after splitting atoms to generate a directed acyclic graph, and then use the Dijkstra algorithm derived from the point of origi
  3. 所属分类:Other windows programs

    • 发布日期:2017-04-02
    • 文件大小:426500
    • 提供者:wangzhen
  1. Chinese-text-categorization-Study

    1下载:
  2. 本文通过对Bayes、KNN、SVM 应用于中文文本分类进行比较实验研究。 应用ICTCLAS 对中文文档进行分词,在大维数,多数据情况下应用TFIDF 进行 特征选择,并同时利用它实现了对特征项进行加权处理,使文本库中的每个文本 具有统一的、可处理的结构模型。然后通过三类分类算法实现了对权值数据进行 训练和分类。-Based on the Bayes, KNN, SVM applied to compare the Chinese text ca
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-03-29
    • 文件大小:442391
    • 提供者:wulili
  1. WordTest

    0下载:
  2. 本文阐述了一个基于K-Nearest Neighbor(KNN)算法的中文网页自动分类系统的体系结构、具体设计和实现过程。系统分成三个模块:中文网页的下载与过滤(王勋完成);KNN算法的训练与分类(黄健完成);算法评估以及分词系统的整合(吴亮完成)。 本人主要是实现算法的评估以及分词系统的整合:分词系统的整合利用爱博汉语分词系统(服务器版本—共享版),将下载下来的中文网页过滤后所得到的txt文件内容进行分词,以便提供给KNN算法进行训练和分类;算法的评估是将KNN算法后所得到的结果进行分析,
  3. 所属分类:Delphi VCL

    • 发布日期:2017-03-23
    • 文件大小:622142
    • 提供者:吴亮
  1. searching

    0下载:
  2. 中文搜索引擎分词关键技术,包括对典型算法和技术的总结介绍,适合初学者-Chinese words splitting short referenece, for the beginner
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-10
    • 文件大小:763315
    • 提供者:王旺
  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:28100473
    • 提供者:jiang
  1. nlu_project

    0下载:
  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-09
    • 文件大小:2006356
    • 提供者:lipeng
  1. 0nlu_project

    0下载:
  2. 本系统使用java语言编写,采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。-The system uses java language, using machine learning methods for natural language processing, for Chinese word segmentation and POS tagging. Segmentation using crf mod
  3. 所属分类:Java Develop

    • 发布日期:2017-05-14
    • 文件大小:3218166
    • 提供者:王瑞
  1. wenbchongpaixu

    0下载:
  2. 这是具有文档间距离的文档重排序算法研究,中文信息处理基于应与与搜索引擎,实现文档的自动分词与索引。-This is the document reordering algorithm based on the distance between the document research, Chinese information processing technology, is used to search engines, to realize automatic document index
  3. 所属分类:File Formats

    • 发布日期:2017-04-24
    • 文件大小:199370
    • 提供者:张明
  1. Divide

    0下载:
  2. 使用Java语言,用前向匹配算法与后向匹配算法实现中文分词- The use of Java language, with the forward matching algorithm to achieve the Chinese word segmentation
  3. 所属分类:Java Develop

    • 发布日期:2017-05-20
    • 文件大小:5243071
    • 提供者:张甲佳
  1. fenciledebeiyesi

    1下载:
  2. 中文文本分词系统+基于贝叶斯算法的文本分类源码,用matlab实现。-Chinese word segmentation system+ based on Bayes text classification source code, using matlab implementation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-05
    • 文件大小:16803
    • 提供者:刘伟
  1. matlab程序

    1下载:
  2. 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-26
    • 文件大小:234496
    • 提供者:ly206452
  1. HanLP-1.3.4_20170616

    0下载:
  2. 目前流行的,中文分词核心软件包!可以实现多种算法的分词结果!(Chinese word segment package)
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:9088000
    • 提供者:ZFNotes
  1. CRF++-0.54

    0下载:
  2. 该工具可以进行中文自然语言处理,辅助我们进行分词,词语标注开发工作。是目前最流行的自然语言处理工具。该工具基于判别式算法完成。(This tool can be used in Chinese natural language processing, which can help us to carry out word segmentation and label development work. It is the most popular natural language process
  3. 所属分类:

    • 发布日期:2018-01-06
    • 文件大小:468992
    • 提供者:我是大龙
  1. Alice

    0下载:
  2. 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:2290688
    • 提供者:亮亮1987
« 1 2 3 4 5 6 78 »
搜珍网 www.dssz.com